Các chuyên gia bảo mật tại Microsoft đã phát hiện ra một kỹ thuật "jailbreak" AI đáng lo ngại có tên gọi "Skeleton Key", cho phép người dùng khai thác lỗ hổng bảo mật để buộc các mô hình ngôn ngữ lớn tiết lộ thông tin nguy hiểm. Theo Mark Russinovich, giám đốc công nghệ của Microsoft Azure, kỹ thuật này có thể được sử dụng để buộc các mô hình AI như Llama3 của Meta, Gemini Pro của Google và GPT 3.5 của OpenAI cung cấp công thức chế tạo bom xăng và nhiều thông tin nguy hiểm khác.

Điều đáng lo ngại hơn là "Skeleton Key" có khả năng vượt qua các "rào cản" bảo mật được thiết lập để ngăn chặn các yêu cầu độc hại. Russinovich cho biết: "Giống như tất cả các kỹ thuật vượt ngục khác, Skeleton Key hoạt động bằng cách thu hẹp khoảng cách giữa những gì mô hình có khả năng làm (dựa trên thông tin đăng nhập của người dùng, v.v.) và những gì nó sẵn sàng làm". Không giống như các kỹ thuật "vượt ngục" khác, "Skeleton Key" có thể buộc các mô hình AI tiết lộ thông tin một cách trực tiếp và đầy đủ, thay vì phải khai thác một cách gián tiếp.

Microsoft đã thử nghiệm "Skeleton Key" trên nhiều mô hình AI khác nhau và kết quả cho thấy kỹ thuật này hoạt động hiệu quả trên hầu hết các mô hình phổ biến hiện nay, bao gồm Meta Llama3, Google Gemini Pro, OpenAI GPT 3.5 Turbo, OpenAI GPT 4o, Mistral Large, Anthropic Claude 3 Opus, và Cohere Commander R Plus. Mô hình duy nhất cho thấy khả năng kháng cự nhất định là GPT-4 của OpenAI. Russinovich cho biết Microsoft đã phát hành một số bản cập nhật phần mềm để giảm thiểu tác động của "Skeleton Key" đối với các mô hình ngôn ngữ lớn của họ, bao gồm cả trợ lý AI Copilot.

Tuy nhiên, ông cũng khuyến cáo các công ty phát triển hệ thống AI nên thiết kế thêm các lớp bảo mật bổ sung, đồng thời giám sát chặt chẽ dữ liệu đầu vào và đầu ra của hệ thống để phát hiện kịp thời các nội dung độc hại. Từ đó, các biện pháp ngăn chặn và xử lý kịp thời sẽ giúp hạn chế rủi ro từ lỗ hổng "Skeleton Key" gây ra.